24 research outputs found

    Comprehensive Security Framework for Global Threats Analysis

    Get PDF
    Cyber criminality activities are changing and becoming more and more professional. With the growth of financial flows through the Internet and the Information System (IS), new kinds of thread arise involving complex scenarios spread within multiple IS components. The IS information modeling and Behavioral Analysis are becoming new solutions to normalize the IS information and counter these new threads. This paper presents a framework which details the principal and necessary steps for monitoring an IS. We present the architecture of the framework, i.e. an ontology of activities carried out within an IS to model security information and User Behavioral analysis. The results of the performed experiments on real data show that the modeling is effective to reduce the amount of events by 91%. The User Behavioral Analysis on uniform modeled data is also effective, detecting more than 80% of legitimate actions of attack scenarios

    The Science Performance of JWST as Characterized in Commissioning

    Full text link
    This paper characterizes the actual science performance of the James Webb Space Telescope (JWST), as determined from the six month commissioning period. We summarize the performance of the spacecraft, telescope, science instruments, and ground system, with an emphasis on differences from pre-launch expectations. Commissioning has made clear that JWST is fully capable of achieving the discoveries for which it was built. Moreover, almost across the board, the science performance of JWST is better than expected; in most cases, JWST will go deeper faster than expected. The telescope and instrument suite have demonstrated the sensitivity, stability, image quality, and spectral range that are necessary to transform our understanding of the cosmos through observations spanning from near-earth asteroids to the most distant galaxies.Comment: 5th version as accepted to PASP; 31 pages, 18 figures; https://iopscience.iop.org/article/10.1088/1538-3873/acb29

    Détection d'anomalies comportementales appliquée à la vision globale

    No full text
    Face à l évolution et la croissance de nouvelles attaques, les systèmes de protection classiques (farewalls, IDS) sont devenus rapidement insuffisants pour contrôler ces menaces. Des scénarios d attaques complexes tentent d être assimilés à des comportements d usage normaux du SI afin de contourner les défenses locales. Nous proposons dans nos travaux une méthode de détection d anomalies comportementale portant sur la vision globale des SI. En intégrant les contraintes liées à l observation de l ensemble d un SI (hétérogénéité, volume de données), nous avons bâtis des profils statistiques d usage du système et mis en place une méthode de détection d anomalies. La mise à jour continuelle de ces profils nous permet de suivre l évolution des comportements légitimes des utilisateurs et de limiter le nombre de fausses alertes. Outre la détection d anomalies comportementales, nos travaux ont délimité le périmètre d observation des comportements en se focalisant sur les démarches des attaquants.In light of the increase in new ,threads and attacks, security components (Firewall, IDS) are becoming inadequate. Indeed, complex attack scenarios tend to be confused with normal system behaviors in order to by-pass local security components. From this perspective, we provided a new method of behavioral anomaly detection based on a globel view of the system throughout our work. By taking into account the observation contraints of the entire IS (heterogeneity, high data volume), we built a statistical profile of the system and developed an anomaly detection method that showed that the continuous update of this profile allows us to follow the evolution of legitimate user behaviors and reduces false alarms. Thus, by focusing on the attacker's strategy, our works determined perimeter of system behaviors to detect behavioral anomalies.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceF

    Confiance et risque pour engager un Ă©change en milieu hostile

    No full text
    De nos jours, l échange électronique est le seul média qui offre l accès à l information pour tous, partout et tout le temps, mais en même temps il s est ouvert à de nouvelles formes de vulnérabilités. La régulation des systèmes numériques, en héritage de la régulation cybernétique, maintient les équilibres à l aide d une boucle de rétroaction négative. Ainsi, leurs sys-tèmes de défense, désignés sous le terme de zone démilitarisée (DMZ) suivent-ils une régulation cybernétique en émettant ce que l on appelle des évènements de sécurité. De tels évènements sont issus de sondes de surveillance qui matérialisent la ligne de dé-fense du système régulé. Toutefois, de telles sondes sont des système-experts et ces évènements appris au préalable ne rendent pas toujours compte de la dynamique de l environnement et plus encore de la psychologie des individus. Plus encore, la multi-plication des systèmes de surveillance a entrainé une production considérable de ces évènements rendant cet ensemble de plus en plus inefficace. Par ailleurs, les systèmes vivants obéissent à une régulation complexe, l homéostasie, qui les guide dans l incertain à l aide de mécanismes de surveillance continue. La force de tels mécanismes repose sur la variété des points de vue qu ils empruntent ce qui leur permet de conjuguer leurs connaissances préalables à leurs informations de contexte pour comprendre leur environnement et s adapter. Dans notre thèse, nous proposons d associer à chaque système communicant, un sys-tème de surveillance continue : Dangerousness Incident Management (DIM) qui rend compte des changements de l environnement en collectant et analysant toutes les traces laissées par les activités des usagers ou systèmes, légitimes ou non ; de cette manière, un tel système accède à une information étendue et reste sensible à son contexte. Néan-moins, plusieurs difficultés surviennent liées à la compréhension des informations re-cueillies dont le sens est noyé dans une grande masse d informations, elles sont deve-nues implicites. Notre contribution principale repose sur un mécanisme de fouille de données adapté aux informations implicites. Nous proposons une structure à fort pou-voir d abstraction fondée sur le principe d un treillis de concepts. À partir de ce modèle de référence adaptatif, il nous est possible de représenter tous les acteurs d un échange afin de faire coopérer plusieurs points de vue et plusieurs systèmes, qu ils soient hu-mains ou machine. Lorsque l incertitude de ces situations persiste, nous proposons un mécanisme pour guider l usager dans ses décisions fondé sur le risque et la confiance. Enfin, nous évaluons nos résultats en les comparant aux systèmes de références Com-mon Vulnerabilities and Exposures (CVE) proposés par le National Institute of Stan-dards and Technology (NIST).Nowadays, the electronic form of exchanges offers a new media able to make easy all information access, ubiquitous access, everywhere and everytime. But, at the same time, such a media - new, opened and complex - introduces unknown threats and breaches. So, how can we start up trust exchanges? From the system theory point of view, the cybernetic regulation maintains the sys-tems equilibrium with negative feedback loops. In this way, the defense line is based on a set of defense components still named Demilitarized Zone (DMZ) in order to block flow, to control anomalies and give out alerts messages if deviances are detected. Nev-ertheless, most of these messages concern only anomalies of machines and very little of human. So, messages do not take into account neither psychological behavior nor the dynamic of the context. Furthermore, messages suffer of the "big data" problem and become confused due to too much velocity, volume and variety. Finally, we can limit this problem to the understanding difficulty during the access to the specific knowledge in connection with the message. For example, the identity theft with the XSS attack is an illustration of this unfriendly environment. On the contrary, the living sciences show that organisms follow a positive regulation by where each one itself adapts according to his complexity. For that, they deploy adapted and continuous environment monitoring process still named "homeostasis". During this cycle, inputs capture information, then outputs adjust in response corre-sponding actions : this is the feedback. The strength of such a mechanism lies on the information meaning and in particular on the clues they include. In fact, some of these information include clues by which organisms can explain situations. For example, the information attention" alludes to dangerous situation. This faculty comes from ad-vanced knowledge having first explicit relationship with this information: this relation forms what we call the "cognitive loop". To illustrate this phenomenon, the cognitive sciences often evoke "a friend immediately recognized by her friend" despite he is swal-lowed up in the crowd. But, the cognitive loop should not be broken. Like the living beings functioning, our work propose a cognitive model named Diag-nostic And Incident Model (DIM). The main idea lies on the context-aware model in order to adapt itself like "homeostasis". DIM has been founded on the principle of the "cognitive loop" where the inputs are the "logs" of numerics systems. So, in order to make easier the comparison between contextual and known situation, we will design "logs" and advanced knowledge by a common model. DIM proposes a conceptual struc-ture to extract clues from massive and various "logs issued from environment based on advanced knowledge acquisition. Then, we propose the cognitive structure will be applied to the anomaly detection, incident management and diagnosis process.VILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    Modèle dynamique de sécurité pour réseaux spontanés

    No full text
    Les objets communicants sont devenus pratiquement incontournables dans notre quotidien. La multiplication des normes de communication sans fil permet à ces appareils dont la nature peut-être très hétérogène, de se connecter rapidement entre eux. Cependant, de nombreux obstacles se dressent à l'avènement de réseaux interconnectables à volonté. En particulier, l'absence de modèle de sécurité aisément réalisable et socialement acceptable est un frein important à leur utilisation. Afin de surmonter ces obstacles, une architecture de gestion de la confiance doit être préalablement développée dès lors qu'il s'agit de considérer des interactions spontanées entre des objets divers n'ayant pas forcément une autorité de confiance commune. Le modèle de gestion de la confiance que nous présentons ici est inspiré des résultats obtenus par l'analyse des relations humaines. Dans ce modèle, la confiance est vue comme une relation pseudo-transitive entre les différentes entités. Le niveau de confiance à accorder aux différentes parties est évalué à partir de données cryptographiquement prouvables stockées dans un historique. Pour des raisons de sécurité, le non-transfert des données de l'historique à un tiers non-autorisé est également assuré. Les simulations numériques présentées montrent que le modèle peut facilement s'instancier dans des réseaux sans fil de grande échelle. La modélisation permet également de fixer certains paramètres libres du modèle afin d'en optimiser l'usage dans la pratique. Son implémentation détaillée est également présentée.Nowadays, communicating objects are omnipresent in our daily life. The multiplication of wireless communication standards allows these heterogeneous devices to rapidly interconnect themselves. However, many obstacles prevent a connection at will. In particular, the absence of an easily realizable and socially acceptable model of security is an important constraint in their use. In order to circumvent these problems, a trust framework must be developed as long as spontaneous interactions occur between devices in an environment without a trusting third party. The trust establishment and management framework we present here is inspired directly from results obtained in analysis of human relations. In our model, trust is considered as a pseudo-transitive relation between the different entities. The trust levels are evaluated from cryptographically data stored in a history. For security reasons, these data are ensured to be not transferable to an unauthorized third party. Numerical simulations show that the model can easily be instanced into large scale wireless networks. The free parameters of our model are set by numerical modeling in order to optimize their usage. A detailed implementation is also presented.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceF

    Modélisation et classification automatique des informations de sécurité

    No full text
    La sécurité d un système d information est devenue un enjeu stratégique important. Actuellement, les organisations (organismes ou entreprises) évoluent et disposent de multiples nœuds exécutant de multiples systèmes. Ces organisations déploient de multiples équipements de sécurité et offrent différents services à leurs utilisateurs. Les services, les ressources ainsi que les équipements déployés peuvent être des cibles pour les intrus. L'interopérabilité entre les produits déployés pour la surveillance du SI est absolument nécessaire. Nous proposons dans notre travail une architecture pour un système de détection d intrusion basée sur l'interopérabilité entre les différents produits (de sécurité et de management) et les services déployés dans un organisme. Cette architecture va fournir une vision globale et répond aux besoins actuels de l'administrateur de sécurité. La détection d'intrusion dans ce contexte consiste à analyser les informations (alertes et événements) remontées par tous ces dispositifs mis en place afin de surveiller un système d'informations et de prévenir toute action non légalement autorisée. Les processus d'analyse des informations de sécurité rencontrent des problèmes sérieux à cause de l hétérogénéité des mécanismes impliqués dans la surveillance du SI et à cause du manque de standard pour la représentation de ces informations. Les travaux de thèse s inscrivent dans le cadre de la modélisation des informations de sécurité afin de faire face au problème d hétérogénéité des produits de surveillance, ce qui permet par la suite aux processus de gestion des informations de sécurité (comme la détection d intrusion ou la recherche de causes d un incident de sécurité) d être opérationnelles et efficaces. La première partie de la thèse propose une solution pour la modélisation de la sémantique des informations de sécurité au travers d une ontologie. Le but de l ontologie réalisée est de décrire d'une manière uniforme la sémantique de toutes les activités qui peuvent être effectuées par des utilisateurs du SI, en faisant abstraction des produits impliqués dans la surveillance d un SI, et en focalisant que sur les concepts porteurs de connaissance pour les mécanismes de traitement de ces informations. La mise en œuvre de l ontologie consiste à faire une classification des alertes et événements remontés par les produits de surveillance dans les catégories qui ont été décrites par l ontologie. La deuxième partie de la thèse s'attache à l'automatisation de la classification des messages de sécurité. Comme nous possédons un corpus de messages préalablement classifiés, nous nous intéressons donc aux techniques de catégorisation automatique de texte (CT). Ces techniques s'appuient sur des méthodes d'apprentissage. Le processus de classification proposé se compose en deux étapes. La première étape permet la préparation de données et leur représentation dans un format exploitable par les algorithmes de classification. La deuxième étape s'attache à appliquer les algorithmes des machines d'apprentissage sur les informations de sécurité prétraitées. L application des solutions proposées dans la thèse se fait sur une base d alertes et d événements fournie par l entreprise Exaprotect (un éditeur de logiciel de sécurité).The security of the Information System(IS) has become an important strategic issue. Currently, organizations or companies are evolving and have multiple nodes running multiple systems. These organizations are deploying multiple security devices and offer different services to their users. Services, resources and equipment deployed may be the targets for intruders. Interoperability between products to monitoring the IS is absolutely necessary. We present in our work an architecture for intrusion detection system based on interoperability between different products (security and management) and services deployed in an organization. This architecture will provide a comprehensive and meets the current needs of the security administrator. Intrusion detection in this context is to analyze the information (alerts and events) generated from all these devices to prevent any action not legally permitted. The process of analyzing information security faced serious problems because of the heterogeneity of the mechanisms involved in the monitoring of the IS and because of the lack of standard to presents of such information. The thesis is part of the modeling of security information to address the problem of the heterogeneity of the products, allowing the management process of information security (such as intrusion detection or the search for causes of a security incident) to be operational and efficient. The first part of the thesis proposes a solution for modeling the semantics of information security through an ontology. The purpose of the ontology is to describe in a uniform manner the semantics for all activities that may be made by users of IS, regardless of the products involved in the supervision of an IS, and focusing on the concepts of knowledge for mechanisms for processing such information. The implementation of the ontology is to make a classification of events and alerts generated by the monitoring products, in categories that were described by the ontology. The second part of the thesis focuses on automating the classification of security messages. As we have a corpus of previously classified messages, therefore we are interested in the techniques for automatic categorization of text (CT). These techniques are based on machine learning methods. The proposed classification process consists of two stages. The first step allows the data preparation and representation in a format usable by the classification algorithms. The second step aims to implement the algorithms machine learning on information security preprocessed. The application of the solutions proposed in the thesis is on a basis of alerts and events provided by the company Exaprotect (a publisher of software security).VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceF

    Modèle d'Administration des Systèmes Distribués à Base de Composants (application à la Gestion de Déploiement d'EJBs dans une Fédération de Serveurs d'Applications)

    No full text
    Dans ce travail, nous cherchons à fournir un début de réponse concernant la gestion d'applications distribuées à base de composants et de serveurs d'applications. Nous nous sommes centré sur le modèle des EJB et des serveurs d'applications J2EE. Afin de pouvoir optimiser cette gestion, notre travail s'est centré sur deux axes : 1. Comment instrumenter et administrer une infrastructure de serveurs d'applications ? 2. Comment gérer le déploiement d'application sur un parc hétérogène de serveurs d'applications ainsi instrumentés ?. Pour répondre à ces questions nous avons cherché à définir une infrastructure de supervision et d'instrumentation permettant d'identifier toue les éléments de toutes les couches du système. Cette infrastructure offre un modèle standardisé de supervision directement exploitable par l'infrastructure de déploiement d'applications. De plus, nous avons défini une infrastructure de déploiement globale et adaptée d'applications sur une fédération de serveurs d'applications. Parmi les nombreux avantages offerts par une telle fédération nous avons étudié les possibilités suivantes : 1. l'évaluation quantitative des applications à installer, 2. l'optimisation du déploiement en fonction des ressources disponibles sur la fédération, 3. la relocalisation d'application en cas de changement du contexte d'exécution.Component-oriented systems are increasingly evolving and being adopted by both industrial and academic worlds. The have resulted from the advances achieved in both software engineering and distributed systems. In our works, we concentrate on the EJB component model; we present an administration platform for a federation of servers cooperating to host a number of applications. The federation includes different servers with different configurations, characteristics, services and resources. Our main objective is manage the deployment of EJB components in the federation depending on their needs to the available resources and services offered by the servers. The proposed administration platform is based on the JMX instrumentation platform. We propose a 3-level instrumentation model to collect management information from 3 environment levels: network and system low level, application server level, and components level. The administration platform gets all necessary information about the execution environment from this instrumentation platform modelled in 3 levels where all the elements are also modelled as managed objects. Furthermore, the administration platform defines a number of services to control the deployment management in the federation such as a migration service, EJB evaluation, and EJB instrumentation service. Beside these services, we define a number of rules to be considered while taking decisions concerning the deployment process and the communication between the application servers.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceF

    Qinna (une architecture à base de composants pour la gestion de la qualité de service dans les systèmes embarqués mobiles)

    No full text
    Les systèmes embarqués communicants sont de plus en plus présents dans notre environnement quotidien sous formes de PDA, téléphones portables, etc. Ces systèmes se doivent d'être ouverts afin de pouvoir accueillir de nouvelles applications tout au long de leur cycle de vie. Ils possèdent alors des contraintes fortes de types qualité de service, sécurité, tolérance aux fautes, etc. La programmation à base de composants apparaît comme une solution prometteuse pour le développement de tels systèmes. Cependant, un des frein à l'adoption de ce type de programmation est que les modèles à composants n'intègrent pas les aspects de gestion de qualité de service. Ce travail de thèse présente une architecture de gestion de qualité de service pour les systèmes embarqués mobiles à composants. Cette architecture, appelée Qinna, est définie à l'aide de composants Fractal et permet la mise en oeuvre, ainsi que la gestion dynamique, de contrats de qualité de service entre les différents composants d'un système. L'originalité de l'approche proposée permet de prendre en compte la qualité de service quelque soit le niveau considéré du système (niveau applicatif, niveau services, niveau système d'exploitation et niveau ressources). L'architecture Qinna a été validée par une évaluation qualitative à base de patrons génériques d'architecture, puis par une évaluation quantitative permettant de montrer que le coût de l'architecture reste faible. Le travail réalisé ouvre de nombreuses perspectives de recherche notamment celle de généraliser l'approche utilisée (définition d'une architecture abstraite de composant pour la prise en charge de la gestion d'une propriété non-fonctionnelle, ici la QdS) à d'autres propriétés non-fonctionnelles (par exemple la sécurité ou la tolérance aux fautes), et d'en tirer des conclusions sur la définition et la génération de conteneurs ouverts.Component-Based Software Engineering is quickly becoming a mainstream approach to software development. At the same time, there is a massive shift from desktop applications to embedded communicating systems (e.g. PDAs or smartphones): it is especially the case for multimedia applications such as video players, music players, etc. Moreover, embedded communicating systems have to deal with open aspect: applications may come or leave the system on the fly. A key point of these systems is its ability to rigorously manage Quality of Service due to resource constraints. In this thesis, we present a component-based QoS architecture well-suited for open systems, called Qinna. Qinna is defined using Fractal components and takes into consideration the main QoS concepts (specification, provision and management) through the use of contracts between components. The Qinna architecture allows to deal with QoS of each layer of a system (application, services, operating system, resources) in order to have a fine grain management of resources. The architecture has been first validated thanks to a qualitative evaluation using generic architectural pattern. Then, Qinna has been validated from a quantitative point of view in order to demonstrate its low cost. Finally, this work opens many research perspectives such as the generalization of the architecture to other non functional properties (security, fault tolerance, etc.).VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceF

    Architectures et communications dans les réseaux spontanés sans-fil

    No full text
    Cette thèse aborde différentes problématiques liées aux réseaux ad hoc ainsi qu'aux réseaux de senseurs. Nous définissons d'abord la notion d'architecture ad hoc avant de décrire nos deux propositions d'architecture, Ana4 et Ana6. Ces architectures sont utilisées pour l'évaluation et l'optimisation du routage dans les réseaux hybrides sans-fil, union d'un réseau d'accès sans-fil et d'une connectivité ad hoc. Nous nous intéressons ensuite au multicast où, après avoir présenté des résultats de NP-complétude pour les problèmes du broadcast et du multicast ad hoc, nous introduisons notre proposition de routage DMZ utilisant des structures mêlant arborescence et maillage et reposant sur la notion, de zones denses. Finalement nous abordons la problématique de consommation d'énergie dans les réseaux de senseurs. En se basant sur un nouveau modèle analytique, nous dérivons des bornes supérieures et inférieurs pour les problèmes de couverture et de broadcast en énergie minimum.This PhD addresses several issues bound to ad hoc and sensor networks. We first define the notion of ad hoc architecture before describing our two proposals, Ana4 and Ana6. These architectures are notably used to evaluate and optimize unicast routing in wireless hybrid networks, i.e., the rnerging of a wireless infrastructure network and ad hoc connectivity. Then we study ad hoc multicast routing. After having presented NP-completeness results for both ad hoc multicast and broadcast problems, we describe our ad hoc multicast routing protocol DMZ (Dense Multicast Zone). DMZ uses tree and mesh structures to create robust diffusion structures and rely on the notion of dense zones. Fin ally, we address the issue of energy consumption in sensor networks. Using a new analytical model, we derive upper and lower bounds for the minimum energy broadcast and covering problems.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceF

    Mécanismes pour la planification et l'ingénierie des réseaux cellulaires

    No full text
    Le cadre de cette thèse se situe dans le contexte des réseaux cellulaires de 2ème et de 3ème génération. Notre objectif est la proposition de modèles de trafic et de mobilité paramétrables permettant l'évaluation des performances d'un réseau radio-mobile cellulaire. Les techniques classiques de planification et de dimensionnement des réseaux cellulaires se basent généralement sur des hypothèses théoriques ne tenant pas compte des conditions réalistes du trafic. Nous proposons dans ce travail une étude complète du trafic à partir de campagnes de mesures de l'OMC (centre d'exploitation et de maintenance) donnant lieu à la conception d'une méthodologie d'élaboration de modèles de trafic et de modèles de mobilité paramétrables. Afin que l'approche soit réaliste, nous avons adopté un modèle un modèle de réseau opérationnel couvrant une région urbaine dans la ville de Tunis. A partir d'une campagne de mesures et d'observations des compteurs bruts du BSS (sous-système radio), nous avons tout d'abord procédé à la caractérisation quantitative et qualitative du trafic pour la région concernée et ceci nous a permis de développer un modèle de zones et un modèle horaire du trafic. Ces modèles ont été par la suite utilisés pour la proposition d'un modèle de mobilité permettant de déterminer les valeurs des taux de transition des utilisateurs (appels entrants/ sortants) entre zones d'activités. Après cette phase de modélisation nous avons calibré et validé le modèle de mobilité proposé par des mesures réelles issues des compteurs de l'OMC et ceci en comparant les valeurs de la probabilité de blocage et de la probabilité de coupure de communication en cours (indicateurs de qualité) mesurées avec celles issues du modèle de mobilité. Enfin, et pour situer l'apport de notre approche au processus de planification et mettre en avant le gain qu'elle offre en terme de ressources utilisées, nous avons adopté une étude comparative du modèle de réseau proposé avec deux autres modèles. Le premier modèle suppose que les activités suivent une loi normale définie dans le modèle de base et que la mobilité est aléatoire entre les zones d'activités. Par contre dans le second scénario plus classique, les arrivées suivent un processus de Poisson et une mobilité aléatoire.We propose a general mobility model to characterize different mobility related traffic parameters within the service urban area. Starting with the analysis of the performance data collected in a real cellular network, we focus on the optimization in the context of a conversational service. The covered area is representative since it includes all the typical urban area such as business centers, residential centers and highways. We split the urban area up to several sub areas (residential, highways, business centre, downtown, industrial zone, university, tourist zone and shopping centre) according to the population activity and traffic characteristics. Each activity area gathers together a number of cells sharing the same characteristics. We define certain statistical distributions of the arrival processes namely fresh traffic and handover traffic and channel holding time. Then, we derive a traffic modelling in order to deduce the impact of each area on other areas and all kinds of interactions. Or approach is entirely statistical to derive distributions by means of the Kolmogorov Smirnov goodness of fit test. Using simulation with realistic hypotheses of a finite number of mobile users, call duration, channel holding lime and inter-arrival times are generated randomly by suitable exponential distributions. The cell transition process follows the transition probability matrix. Main system performance parameters in terms of blocking probability of new calls and handover blocking probability are computed and compared with measurements. Our model can be employed to evaluate the performance of realistic networks and to describe the impact on planning process.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceTunisiaFRT
    corecore